Με συνέπεια και Ανεξάρτητο λόγο Κινούμαστε Δυναμικά

Για ένα Απαλλαγμένο απο κομματικές εξαρτήσεις ΟΕΕ

Για την Αναβάθμιση της Οικονομικής Επιστήμης

Για Επαγελματική Αξιοπρέπεια

Η ανοιχτή επιστολή του «Future of Life Institute» για 6μηνο μορατόριουμ στα πειράματα Τεχνητής Νοημοσύνης

Η ανθρωπότητα βρίσκεται ένα βήμα πριν από τη δημιουργία Τεχνητής Γενικής Νοημοσύνης (Artificial General Intelligence – AGIή Strong AI, που θα μπορεί να εκτελεί όλες τις ανθρώπινες δραστηριότητες και ενδεχομένως να φτάσει ή να ξεπεράσει την ανθρώπινη νοημοσύνη, να αυτονομηθεί απ’ αυτήν και να εξελίσσεται αφ’ εαυτής επί τη βάσει κάποιου δικού της ορθολογισμού. Εν τοιαύτη περιπτώσει είναι εμφανής η υπαρξιακή απειλή για τον ανθρώπινο πολιτισμό και το  ανθρώπινο είδος. Αυτό φοβούνται και πολλοί κορυφαίοι ειδικοί και μη ειδικοί (όπως ο Στιούαρτ Ράσελ, ο Γιόσουα Μπένγκιο, ο Στήβ Βόζνιακ, ο Ίλον Μασκ, ο Γιουβάλ Χαράρι, ο Ντάρον Ασήμογλου και πολλοί άλλοι), που υπέγραψαν την ανοικτή επιστολή που δημοσίευσε τον προηγούμενο μήνα το «Future of Life Institute», με την οποία κάνει έκκληση για προσωρινή παύση στις έρευνες τεχνητής νοημοσύνης για 6 τουλάχιστον μήνες.  

 

Γιώργος Δουράκης

ΑΝΟΙΧΤΗ ΕΠΙΣΤΟΛΗ:

Να Σταματήσουν Προσωρινά τα Γιγαντιαία Πειράματα Τεχνητής Νοημοσύνης (ΤΝ)

Καλούμε όλα τα εργαστήρια Τεχνητής Νοημοσύνης να διακόψουν αμέσως, τουλάχιστον για 6 μήνες, την εκπαίδευση συστημάτων Τεχνητής Νοημοσύνης μεγαλύτερης ισχύος από το GPT-4

 

Τα συστήματα τεχνητής νοημοσύνης που ανταγωνίζονται την ανθρώπινη νοημοσύνη μπορούν να δημιουργήσουν τεράστιους κινδύνους για την κοινωνία και την ανθρωπότητα, όπως έχει αποδειχθεί από εκτεταμένες έρευνες[1] και έχει αναγνωριστεί από κορυφαία εργαστήρια ΤΝ.[2] Όπως αναφέρεται στις ευρέως αποδεκτές Asilomar AI Principlesη προηγμένη ΤΝ μπορεί να αποτελέσει μια βαθιά τομή στην ιστορία της ζωής πάνω στη Γη και πρέπει να σχεδιαστεί και να οργανωθεί με ανάλογη φροντίδα και ανάλογους πόρους. Δυστυχώς αυτό το επίπεδο σχεδιασμού και διαχείρισης δεν υλοποιείται, παρ’ όλο που τους τελευταίους μήνες τα εργαστήρια ΤΝ έχουν επιδοθεί σ’ έναν ανεξέλεγκτο αγώνα δρόμου για την ανάπτυξη και την εκδίπλωση ολοένα και πιο ισχυρών ψηφιακών εγκεφάλων, που κανείς -ούτε καν οι δημιουργοί τους- δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει με αξιόπιστο τρόπο.

Τώρα που τα σύγχρονα συστήματα ΤΝ αρχίζουν να ανταγωνίζονται τον άνθρωπο σε γενικές εργασίες,[3] οφείλουμε να αναρωτηθούμε:

-Πρέπει ν’ αφήσουμε τις μηχανές να πλημμυρίσουν τα κανάλια από τα οποία αντλούμε την πληροφόρησή μας με προπαγάνδα και ψεύδος;

-Πρέπει να αυτοματοποιήσουμε όλες τις δουλειές, συμπεριλαμβανομένων και αυτών που μας προσφέρουν ικανοποίηση;

-Πρέπει να αναπτύξουμε μη-ανθρώπινα μυαλά που μπορεί τελικά να γίνουν περισσότερα και πιο έξυπνα από μας, να μας καταστήσουν περιττούς και να μας αντικαταστήσουν;

-Πρέπει να διακινδυνεύσουμε να χάσουμε τον έλεγχο του πολιτισμού μας;

Τέτοιες αποφάσεις δεν πρέπει να εκχωρούνται στους μη εκλεγμένους πρωταγωνιστές του τεχνολογικού τομέα. Τα πανίσχυρα συστήματα ΤΝ θα πρέπει να αναπτύσσονται μόνον όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοί τους διαχειρίσιμοι. Αυτή η εμπιστοσύνη πρέπει να είναι καλά τεκμηριωμένη και να αυξάνεται ανάλογα με το μέγεθος των πιθανών επιπτώσεων που μπορεί να έχει ένα σύστημα. Η πρόσφατη ανακοίνωση της εταιρείας OpenAI σχετικά με την Τεχνητή Γενική Νοημοσύνη (ΤΓΝ), αναφέρει ότι «κάποια στιγμή μπορεί να είναι σημαντικό να γίνεται ανεξάρτητη αξιολόγηση πριν από την έναρξη της εκπαίδευσης μελλοντικών συστημάτων και για τις πιο προηγμένες προσπάθειες να συμφωνηθεί ο περιορισμός του ρυθμού αύξησης των υπολογιστικών πόρων που χρησιμοποιούνται για τη δημιουργία νέων μοντέλων». Συμφωνούμε. Η στιγμή αυτή είναι τώρα.

Γι’ αυτό καλούμε όλα τα εργαστήρια τεχνητής νοημοσύνης να διακόψουν αμέσως, για 6 τουλάχιστον μήνες, την εκπαίδευση συστημάτων ΤΝ που είναι ισχυρότερα από το GPT-4. Η παύση αυτή πρέπει να είναι δημόσια και επαληθεύσιμη και να περιλαμβάνει όλους τους βασικούς παίκτες. Εάν δεν μπορεί να γίνει γρήγορα, τότε πρέπει να παρέμβουν οι κυβερνήσεις και να επιβάλουν θεσμικό μορατόριουμ.

Τα εργαστήρια ΤΝ και οι ανεξάρτητοι εμπειρογνώμονες πρέπει να χρησιμοποιήσουν αυτήν την παύση για να αναπτύξουν και να εφαρμόσουν από κοινού ένα σύνολο κοινών πρωτοκόλλων ασφαλείας για τον προηγμένο σχεδιασμό και την ανάπτυξη ΤΝ, τα οποία θα ελέγχονται αυστηρά και θα επιβλέπονται από ανεξάρτητους εξωτερικούς εμπειρογνώμονες. Αυτά τα πρωτόκολλα πρέπει να διασφαλίζουν ότι τα συστήματα που τα εφαρμόζουν είναι ασφαλή πέρα από κάθε λογική αμφιβολία.[4] Αυτό δεν σημαίνει παύση της ανάπτυξης ΤΝ γενικά, αλλά απλώς μια προσωρινή αποχή από την επικίνδυνη κούρσα προς ολοένα και μεγαλύτερα απρόβλεπτα και αδιαφανή μοντέλα με υπέρτερες δυνατότητες.

Η έρευνα και ανάπτυξη (R&D) ΤΝ πρέπει να επικεντρωθεί εκ νέου στο να καταστήσει τα σύγχρονα πανίσχυρα συστήματα ΤΝ πιο ακριβή, ασφαλή, κατανοητά, διαφανή, εύρωστα, ευθυγραμμισμένα, αξιόπιστα και σύννομα.

Παράλληλα οι προγραμματιστές ΤΝ πρέπει να συνεργαστούν με τους υπεύθυνους χάραξης πολιτικής για να επιταχύνουν αισθητά την ανάπτυξη ισχυρών συστημάτων διακυβέρνησης της ΤΝ. Αυτά πρέπει να περιλαμβάνουν τουλάχιστον τα εξής:

1) Νέες και ικανές ρυθμιστικές αρχές, που θα ασχολούνται αποκλειστικά με την ΤΝ.

2) Εποπτεία και παρακολούθηση των προηγμένων συστημάτων ΤΝ και των μεγάλων δεξαμενών υπολογιστικής ισχύος

3) Συστήματα προέλευσης και ψηφιακής υδατογράφησης, που θα μας βοηθούν να ξεχωρίζουμε τα πραγματικά από τα συνθετικά δεδομένα και θα ανιχνεύουν τις διαρροές των μοντέλων

4) Ένα εύρωστο οικοσύστημα ελέγχου και πιστοποίησης

5) Ευθύνη για βλάβες που προκαλούνται από την ΤΝ

6) Επαρκή δημόσια χρηματοδότηση για την έρευνα τεχνικής ασφάλειας της ΤΝ

7) Θεσμικά όργανα εφοδιασμένα με τους απαραίτητους πόρους για την αντιμετώπιση των δραματικών οικονομικών και πολιτικών ανατροπών που θα προκαλέσει η ΤΝ (ιδίως στον τομέα της δημοκρατίας)

Η ανθρωπότητα μπορεί να απολαύσει ένα λαμπρό μέλλον με την ΤΝ. Έχοντας καταφέρει να δημιουργήσουμε ισχυρά συστήματα ΤΝ, καιρός είναι να απολαύσουμε ένα «καλοκαίρι ΤΝ», στη διάρκεια του οποίου θα δρέψουμε τους καρπούς, θα διαμορφώσουμε αυτά τα συστήματα προς όφελος όλων και θα δώσουμε στην κοινωνία την ευκαιρία να προσαρμοστεί. Η κοινωνία έχει διακόψει προσωρινά άλλες τεχνολογίες με δυνητικά καταστροφικές κοινωνικές συνέπειες.[5] Μπορεί και εδώ να κάνει το ίδιο. Ας απολαύσουμε ένα μακρύ καλοκαίρι ΤΝ, χωρίς να βιαστούμε να εισέλθουμε απροετοίμαστοι σ’ ένα ζοφερό φθινόπωρο.

 

Σημειώσεις & παραπομπές

 

[1]

-Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

-Bostrom, N. (2016). Superintelligence. Oxford University Press.

-Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

-Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

-Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

-Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

-Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

-Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

-Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

-Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

-Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

-Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2]

-Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.

-Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3]

-Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

-OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]

Υπάρχει άφθονο νομικό προηγούμενο –π.χ. οι ευρέως αποδεκτές Αρχές του ΟΟΣΑ γιαν την ΤΝ απαιτούν τα συστήματα ΤΝ να «λειτουργούν κατάλληλα και να μη δημιουργούν αδικαιολόγητο κίνδυνο για την ασφάλεια».

[5]

Για παράδειγμα η κλωνοποίηση του ανθρώπου, η τροποποίηση της ανθρώπινης γενετικής γραμμής, η ιατρική έρευνα GoF (σημ.: γενετική τροποποίηση οργανισμών με στόχο την ενίσχυση των βιολογικών λειτουργιών γονιδιακών προϊόντων) και η ευγονική.

 

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

 

Μετάφραση: Γιώργος Δουράκης

Πηγή: Διάλογος Καθηγητών ΑΠΘ

 


Σχολιάστε εδώ

για να σχολιάσετε το παραπάνω θέμα πρέπει να εισέλθετε


x

Τι θέλετε να αναζητήσετε;